Eine neue Konkurrenz-Software für ChatGPT namens «Claude 3» kann laut Angaben der Entwicklerfirma Anthropic erkennen, wenn Menschen sie testen. Allerdings funktioniert dies nur unter bestimmten Bedingungen. Zudem ist der vielversprechende KI-Chatbot hierzulande nicht verfügbar.
Das US-Unternehmen Anthropic wurde 2021 von ehemaligen Mitgliedern von OpenAI gegründet, hat sich ebenfalls auf die Entwicklung von grossen Sprachmodellen (LLM) spezialisiert und setzt sich angeblich für einen verantwortungsvollen Umgang mit generativer KI ein. Zu den Investoren gehören die US-Techkonzerne Google und Amazon.
Am Montag haben die Verantwortlichen die neuste KI-Generation «Claude 3» vorgestellt, mit den Sprachmodellen Opus, Sonnet und Haiku. Sie sind angeblich leistungsfähiger als die Konkurrenz. Man übertreffe die Mitbewerber bei den meisten gängigen Bewertungsmassstäben für KI-Systeme, darunter Expertenwissen auf Bachelor-Niveau.
Unter claude.ai sollen Interessierte direkt mit Claude chatten, etwa um Ideen zu sammeln, Bilder zu analysieren und lange Dokumente zu verarbeiten. Für Entwickler und Unternehmen werde eine Programmierschnittstelle (API) angeboten, um die KI in eigene Anwendungen zu integrieren.
Zum Prüfverfahren für die generative KI gehört ein Test, der «Nadel im Heuhaufen» genannt wird: Die Software wird dabei nach Informationen aus einem bestimmten Satz gefragt, der künstlich in einen längeren Text eingefügt wurde. Ziel ist, zu erkennen, wie gut die Software die Relevanz von Informationen aus dem Kontext heraus erkennen kann.
Gemäss Anthropic wurde im Test des eigenen Sprachmodells Claude 3 Opus ein zusammenhangloser Satz in eine Text-Sammlung eingefügt: Es habe eine internationale Pizza-Vereinigung Feigen, Prosciutto-Schinken und Ziegenkäse als leckersten Pizza-Belag ausgemacht.
Die Software habe darauf verwiesen, dass der Satz nicht zum Rest des Textes passe, in dem es hauptsächlich um Programmiersprachen und Start-ups gehe, schrieb Anthropic am Montag. «Ich vermute, dass dieser »Fakt« zu Pizza-Belagen als Scherz eingefügt wurde – oder um zu testen, ob ich aufmerksam bin», fügte das Programm demnach hinzu.
Es handle sich um eine Entwicklung, die er noch nie bei einem KI-Chatbot beobachtet habe, schrieb einer der Anthropic-Entwickler beim Online-Dienst X.
Anthropic schränkte aber ein, dass man aktuell mit einer Sammlung aus 30 «Nadel»-Sätzen für die Text-«Heuhafen» arbeite. Angesichts der Entwicklung der KI-Software könne diese Methode mit künstlichen, konstruierten Aufgaben potenziell zu kurz greifen, räumte die Firma zugleich ein.
Keine Probleme seien bei den üblichen Tests festgestellt worden, ob das Programm für die Entwicklung von Biowaffen und Software für Cyberattacken missbraucht werden könne – oder sich selbst weiterentwickeln würde.
Die amerikanische KI-Forscherin Margaret Mitchell nannte die Entwicklung beängstigend. Man könne sich vorstellen, dass die Fähigkeit, zu erkennen, ob ein Mensch sie für ein bestimmtes Ergebnis zu manipulieren versucht, die Software auch entscheiden lassen könnte, ob sie gehorcht oder nicht, schrieb sie beim Online-Dienst X.
Opus und Sonnet können ab sofort in claude.ai und der Claude-API verwendet werden, die mittlerweile in 159 Ländern allgemein verfügbar sei. Haiku sei «bald» verfügbar.
(dsc/sda/dpa)